非结构化的文本中存在大量的位置信息,例如社交媒体帖子,新闻报道,科学文章,网页,旅行博客和历史档案。地理学是指识别文本中的位置参考并识别其地理空间表示的过程。虽然地理标准可以使许多领域受益,但仍缺少特定应用程序的摘要。此外,缺乏对位置参考识别方法的现有方法的全面审查和比较,这是地理验证的第一个和核心步骤。为了填补这些研究空白,这篇综述首先总结了七个典型的地理应用程序域:地理信息检索,灾难管理,疾病监视,交通管理,空间人文,旅游管理和犯罪管理。然后,我们通过将这些方法分类为四个组,以基于规则的基于规则,基于统计学学习的基于统计学学习和混合方法将这些方法分类为四个组,从而回顾了现有的方法参考识别方法。接下来,我们彻底评估了27种最广泛使用的方法的正确性和计算效率,该方法基于26个公共数据集,其中包含不同类型的文本(例如,社交媒体帖子和新闻报道),包含39,736个位置参考。这项彻底评估的结果可以帮助未来的方法论发展以获取位置参考识别,并可以根据应用需求指导选择适当方法的选择。
translated by 谷歌翻译
在更广泛的地球科学中对人工智能模型的常见需求是表示和编码各种类型的空间数据,例如点(例如,兴趣点),折线(例如,轨迹),多边形(例如,行政区域),图(例如,运输网络)或栅格(例如,遥感图像),隐藏的嵌入空间中,使得它们可以容易地结合到深度学习模型中。一个基本步骤是将单个点位置编码为嵌入空间,使得该嵌入对下游机器学习模型(例如支持向量机和神经网络)进行学习友好。我们调用此过程位置编码。但是,对位置编码的概念,其潜在应用以及需要解决的关键挑战缺乏系统审查。本文旨在填补这一差距。我们首先提供了一个正式的编码定义,并讨论了从机器学习角度从机械研究编码的必要性。接下来,我们提供关于当前地点景观研究的全面调查和讨论。我们根据其输入和编码方法将位置编码模型分类为不同类别,并基于它们是参数,多尺度,距离保存和方向意识的方式进行比较。我们证明现有的位置编码模型可以在共享配方框架下统一。我们还讨论了不同类型的空间数据的位置编码的应用。最后,我们指出了在未来需要解决的研究中的几个挑战。
translated by 谷歌翻译
In recent years, large amounts of effort have been put into pushing forward the real-world application of dynamic digital human (DDH). However, most current quality assessment research focuses on evaluating static 3D models and usually ignores motion distortions. Therefore, in this paper, we construct a large-scale dynamic digital human quality assessment (DDH-QA) database with diverse motion content as well as multiple distortions to comprehensively study the perceptual quality of DDHs. Both model-based distortion (noise, compression) and motion-based distortion (binding error, motion unnaturalness) are taken into consideration. Ten types of common motion are employed to drive the DDHs and a total of 800 DDHs are generated in the end. Afterward, we render the video sequences of the distorted DDHs as the evaluation media and carry out a well-controlled subjective experiment. Then a benchmark experiment is conducted with the state-of-the-art video quality assessment (VQA) methods and the experimental results show that existing VQA methods are limited in assessing the perceptual loss of DDHs. The database will be made publicly available to facilitate future research.
translated by 谷歌翻译
Time series anomaly detection strives to uncover potential abnormal behaviors and patterns from temporal data, and has fundamental significance in diverse application scenarios. Constructing an effective detection model usually requires adequate training data stored in a centralized manner, however, this requirement sometimes could not be satisfied in realistic scenarios. As a prevailing approach to address the above problem, federated learning has demonstrated its power to cooperate with the distributed data available while protecting the privacy of data providers. However, it is still unclear that how existing time series anomaly detection algorithms perform with decentralized data storage and privacy protection through federated learning. To study this, we conduct a federated time series anomaly detection benchmark, named FedTADBench, which involves five representative time series anomaly detection algorithms and four popular federated learning methods. We would like to answer the following questions: (1)How is the performance of time series anomaly detection algorithms when meeting federated learning? (2) Which federated learning method is the most appropriate one for time series anomaly detection? (3) How do federated time series anomaly detection approaches perform on different partitions of data in clients? Numbers of results as well as corresponding analysis are provided from extensive experiments with various settings. The source code of our benchmark is publicly available at https://github.com/fanxingliu2020/FedTADBench.
translated by 谷歌翻译
The opaqueness of the multi-hop fact verification model imposes imperative requirements for explainability. One feasible way is to extract rationales, a subset of inputs, where the performance of prediction drops dramatically when being removed. Though being explainable, most rationale extraction methods for multi-hop fact verification explore the semantic information within each piece of evidence individually, while ignoring the topological information interaction among different pieces of evidence. Intuitively, a faithful rationale bears complementary information being able to extract other rationales through the multi-hop reasoning process. To tackle such disadvantages, we cast explainable multi-hop fact verification as subgraph extraction, which can be solved based on graph convolutional network (GCN) with salience-aware graph learning. In specific, GCN is utilized to incorporate the topological interaction information among multiple pieces of evidence for learning evidence representation. Meanwhile, to alleviate the influence of noisy evidence, the salience-aware graph perturbation is induced into the message passing of GCN. Moreover, the multi-task model with three diagnostic properties of rationale is elaborately designed to improve the quality of an explanation without any explicit annotations. Experimental results on the FEVEROUS benchmark show significant gains over previous state-of-the-art methods for both rationale extraction and fact verification.
translated by 谷歌翻译
与常规深层神经网络(DNN)相比,衍射光学神经网络(DONNS)在功率效率,并行性和计算速度方面具有显着优势,因此引起了很多关注,这些神经网络(DNN)在数字平台上实现时具有内在的限制。但是,反相反的算法训练的物理模型参数上具有离散值的现实世界光学设备是一个非平凡的任务,因为现有的光学设备具有非统一的离散级别和非单调属性。这项工作提出了一个新颖的设备对系统硬件软件代码框架,该框架可以对Donns W.R.T的有效物理意识培训进行跨层的任意实验测量的光学设备。具体而言,使用Gumbel-SoftMax来启用从现实世界设备参数的可区分映射到Donns的正向函数,在Donn中,Donn中的物理参数可以通过简单地最小化ML任务的损耗函数来训练。结果表明,我们提出的框架比传统的基于基于量化的方法具有显着优势,尤其是使用低精确的光学设备。最后,在低精度设置中,通过物理实验光学系统对所提出的算法进行了充分的验证。
translated by 谷歌翻译
在过去的十年中,数字人类吸引了越来越多的研究兴趣,而这些人的代表,渲染和动画已经付出了很大的努力。但是,数字人类的质量评估已落后。因此,为了应对数字人类质量评估问题的挑战,我们提出了第一个用于扫描数字人头(DHHS)的大规模质量评估数据库。构造的数据库由55个参考DHHS和1,540个扭曲的DHHS以及主观评分组成。然后,提出了一种简单而有效的全参考(FR)基于投影的方法。预处理的SWIN变压器微小用于分层提取,并将多头注意模块用于特征融合。实验结果表明,所提出的方法在主流FR指标中表现出最先进的表现。该工作中介绍的数据库和方法将公开可用。
translated by 谷歌翻译
最近的隐私泄漏事件和更严格的政策法规要求公司和移动应用程序的合规标准更高。但是,此类义务还在应用程序开发人员遵守包含各种观点,活动和角色的这些法规方面面临重大挑战,尤其是对于在此问题或资源有限的小型公司和开发人员中。为了解决这些障碍,我们开发了一个自动工具NL2GDPR,该工具可以从开发人员的自然语言描述中制定策略,同时还可以确保该应用程序的功能符合通用数据保护法规(GDPR)。 NL2GDPR是通过利用由百度认知计算实验室开发的信息提取工具OIA(开放信息注释)开发的。核心,NL2GDPR是一个以隐私为中心的信息提取模型,附有GDPR策略查找器和策略生成器。我们进行一项全面的研究,以掌握提取以隐私为中心的信息和制定隐私政策的挑战,同时利用针对此特定任务的优化。借助NL2GDPR,我们可以在正确识别与个人数据存储,过程和共享类型相关的GDPR策略方面获得92.9%,95.2%和98.4%的精度。据我们所知,NL2GDPR是第一个允许开发人员自动生成GDPR策略的工具,只需要输入自然语言来描述应用程序功能。请注意,其他非GDPR相关功能可能与生成的功能集成在一起,以构建复杂的应用程序。
translated by 谷歌翻译
面姿势估计是指通过单个RGB图像预测面部取向的任务。这是一个重要的研究主题,在计算机视觉中具有广泛的应用。最近已经提出了基于标签的分布学习(LDL)方法进行面部姿势估计,从而实现了有希望的结果。但是,现有的LDL方法有两个主要问题。首先,标签分布的期望是偏见的,导致姿势估计。其次,将固定的分布参数用于所有学习样本,严重限制了模型能力。在本文中,我们提出了一种各向异性球形高斯(ASG)的LDL方法进行面部姿势估计。特别是,我们的方法在单位球体上采用了球形高斯分布,该分布不断产生公正的期望。同时,我们引入了一个新的损失功能,该功能使网络可以灵活地学习每个学习样本的分布参数。广泛的实验结果表明,我们的方法在AFLW2000和BIWI数据集上设置了新的最新记录。
translated by 谷歌翻译
对接系统对于在线多人游戏中创建公平匹配至关重要,这直接影响玩家的满足感和游戏体验。大多数对接系统在很大程度上取决于对玩家游戏技能的精确估计来构建公平的游戏。但是,新手的技能等级通常是不准确的,因为当前的对接评级算法需要大量游戏才能学习新玩家的真正技能。在早期阶段使用这些不可靠的技能得分通常会导致团队绩效方面的差异,这会导致负面的游戏体验。这被称为对接评级算法的“冷启动”问题。为了克服这个难题,本文提出了QuickSkill,这是一个基于深度学习的新手技能估算框架,以快速探究在线多人游戏中新玩家的能力。 QuickSkill提取了玩家最初的几款游戏中的顺序性能功能,以通过专用的神经网络来预测他/她的未来技能评级,从而在玩家的早期游戏阶段进行准确的技能估计。通过使用Quickskill进行对接,可以在最初的冷门时期大大改善游戏公平性。我们在离线和在线场景中都在流行的移动多人游戏中进行实验。使用两个现实世界中的匿名游戏数据集获得的结果表明,提议的QuickSkill提供了对新手游戏技能的精确估计,从而导致团队技能差异明显降低和更好的玩家游戏体验。据我们所知,提议的Quickskill是第一个解决传统技能评级算法的冷门问题的框架。
translated by 谷歌翻译